Articles

Marketeur et Algorithme : amis ou enemis ?

Spécialiste reconnu de l’algorithmique des moteurs de recherche et des réseaux sociaux, Sylvain Peyronnet est fondateur d’un laboratoire privé de R&D, les ix-labs, et co-fondateur d’une agence web.

Vous avez récemment quitté votre poste de professeur des universités pour vous lancer dans le privé en créant votre propre laboratoire de recherches. Pourquoi cette démarche ? Qu’est-ce que vous ne pouviez pas faire dans la fonction publique française ?
Techniquement je suis en disponibilité de ce poste, ce qui signifie que je suis parti, mais que j’ai trois ans pour décider si je veux le reprendre. C’est une facilité offerte par la fonction publique pour ceux qui veulent créer une entreprise, et je suis ravi de pouvoir en profiter.

Plusieurs raisons m’ont poussé à quitter ce que certains appellent le confort de l’Université pour créer une petite structure. Tout d’abord il n’y a plus vraiment en ce moment de confort de l’Université : les financements se sont taris et, les structures étant très grosses, il devient difficile de mettre en place des projets très actuels avec des petites équipes (une logique de « task force » en quelque sorte). Par ailleurs, en ce moment, on ressent en France une effervescence autour des nouvelles technologies, mais pas à l’Université, plutôt dans l’écosystème des startups et des incubateurs. C’est pour cela que j’ai souhaité créer une structure très dynamique, avec peu de gens, mais tous en pointe sur leur sujet. Nous travaillons surtout sur les algorithmes pour le web, domaine peu présent dans le milieu académique francophone. Enfin, j’ai maintenant le plaisir de voir mes résultats scientifiques mis en oeuvre à grande échelle, et c’est très gratifiant. Avant, mes algorithmes étaient utilisés par quelques collègues et maintenant par des millions de personnes !

Quelle vision du marketing peut avoir un spécialiste en algorithmes ?
Je n’ai pas vraiment une vision de ce qu’est le marketing, ou de ce qu’il devrait être. Je vois plutôt une relation croisée entre les deux disciplines : d’un côté un apport technique pour simplifier/automatiser et améliorer des tâches que fait déjà le spécialiste du marketing, et de l’autre une nécessaire appropriation des services algorithmiques que l’on trouve sur le web.

Comment la technique peut-elle venir en aide au marketing ?
Sans être un spécialiste, je vois un certain nombre de problèmes de compréhension du marché et des désirs des clients qui pourraient tirer profit d’une aide « mécanique ». Depuis déjà longtemps il existe des outils statistiques pour réaliser, par exemple, une segmentation clientèle, ou encore des tests d’hypothèse à vocation commerciale via le A/B testing. Mais on peut aller beaucoup plus loin, en utilisant par exemple des outils de classification (venus du « machine learning ») pour apprendre et prédire le comportement des clients, ou des outils d’optimisation continue comme les bandits manchots, pour créer des e-commerces adaptatifs. Avec la prédiction comportementale, on peut notamment lever des alertes en temps réel sur un site de vente en ligne lorsque l’on suspecte qu’un client ne va pas finaliser son achat. Les bandits manchots quant à eux permettent d’adapter en permanence la page principale d’un e-commerce, pour adapter les produits proposés aux besoins du moment.

Une nécessaire appropriation des services algorithmiques ?
Ces dernières années, le web a vécu de fortes évolutions. Après le SEO et le SEM, puis le SMO et le retargeting, les outils qui s’imposent aujourd’hui sont ceux qui font de l’optimisation de placement publicitaire en temps réel (on parle ainsi de RTA et RTB, les Real Time Advertising et Bidding) ou qui gèrent la curation de manière automatique. Un expert en web marketing doit nécessairement comprendre le fonctionnement des algorithmes pour accomplir au mieux sa mission. Incidemment, cela oblige tous les acteurs du web à monter en compétences sur les aspects conceptuels et techniques qui sont censés rester transparents pour les utilisateurs.

L’algorithme ne va-t-il pas finalement remplacer le marketeur ?
Question plus difficile qu’elle n’en a l’air, mais je répondrai non. Il y a des arbitrages et des ressentis qui sont hors de portée du raisonnement mécanique. N’oublions pas que le marketing est une discipline profondément proche de l’humain, et qu’un bon marketeur doit être un bon psychologue/sociologue.

On reproche souvent aux techniciens de ne pas avoir de connaissances en marketing et aux marketeurs de ne rien comprendre au niveau technique. À l’avenir, quel sera finalement le bon profil pour ce poste ?
Dans l’idéal il faut être un peu des deux : un marketeur qui comprend les principes techniques et les contraintes qui s’y rapportent, ou alors un technicien qui comprend les principes marketing et les contraintes qui s’y réfèrent. Je pense qu’une grosse partie des problèmes entre techniciens et marketeurs se résout par le dialogue, afin que chacun comprenne les méthodes de l’autre, et surtout ses objectifs. En tout cas, à l’heure actuelle, aucun des deux ne peut faire de grandes choses sur le web sans l’aide de l’autre.

Comment se former sur ces sujets spécifiques sans faire cinq à dix ans d’études universitaires ?
Il faut se former en plusieurs étapes : d’abord faire des formations qui permettent de comprendre les enjeux et les résultats des algorithmes utilisés sur le web. Puis il faut apprendre à manipuler certains outils, qui sont utilisables par tous sans nécessairement en comprendre les mécanismes sous-jacents. Par exemple, on peut faire beaucoup de choses avec Excel, comme par exemple une segmentation clientèle, sans savoir comment fonctionne un algorithme de clustering.

Vous avez d’ailleurs lancé des formations spécifiquement pour les non techniciens…
En effet, depuis deux ou trois ans, je forme pas mal de professionnels à l’algorithmique des moteurs de recherche, et plus récemment aux outils du « machine learning ». Il s’avère qu’une partie de ces professionnels est plus ou moins dans le marketing : il y a des référenceurs, des webmarketeurs et des e-commerçants. On a même eu un ou deux directeurs marketing de grands comptes. Depuis quelques mois, je réponds positivement aux sollicitations pour des missions de R&D pour ces professionnels, et je leur fournis des outils algorithmiques clé en main pour leur problématique business.

On ne parle que de Google alors qu’il existe énormément de moteurs de recherche dans le monde. Est-il vraiment le meilleur ou écrase-t-il toute forme de concurrence en raison de son quasi monopole ?
Si on se cantonne purement au search, Google reste probablement le meilleur, mais pas de manière très nette. En revanche, Google a su créer une entité qui répond au besoin de l’internaute grâce à ses nombreux outils (les résultats organiques, les publicités, Google shopping, et tous les autres services).
En fournissant autant de services complémentaires, le moteur a aquis une situation de plus en plus monopolistique : au-delà du search (ce que l’on présente comme statistique est le pourcentage d’utilisation en search), Google a su maintenir captifs ses utilisateurs qui naviguent du moteur vers le Drive, en passant par Maps ou Gmail. Il y a là une situation inquiétante, avec un acteur qui maîtrise l’intégralité des outils utilisés par l’internaute moyen. À mon avis, il est difficile de défier Google sans proposer une vision différente. Pour cela, certains jouent la carte de la vie privée (duck duck go et Qwant), d’autres sont sémantiques (WolframAlpha), etc.

Le futur d’un moteur de recherche ne se trouve-t-il pas dans la fonction vocale comme par exemple Siri ?
Il y a quelques années, Amit Singhal (responsable du département Search Quality chez Google) annonçait que cette interface était l’avenir du search. La notion d’assistant est celle qui vient à l’esprit : pas besoin d’avoir une interface artificielle, le moteur doit devenir transparent et répondre à nos besoins comme le ferait un ami à qui on pose une question au téléphone. Maintenant, on nous fait rêver avec des outils encore plus impressionnants en nous promettant d’anticiper nos demandes.

Est-ce que le hasard va encore exister face au développement de plus en plus précis de modèles prédictifs ?
C’est déjà ce qui est reproché aux systèmes commerciaux de recommandations : le fait de gommer la sérendipité. Un moteur de recherche est rapidement normatif : il fournit ce que les gens demandent, et par une boucle de rétroaction malheureuse, les gens apprennent à ne demander que ce qu’on leur fournit. Ceci étant, il y a encore de la marge avant que les modèles prédictifs gouvernent le monde.

[ASIDE] Sylvain Peyronnet sera à Genève à l’occasion SEO Camp qui se tiendra le 22 mai 2015.
[/ASIDE]

Articles similaires

Bouton retour en haut de la page
Fermer

Rester informé

cominmag.ch
Daily Newsletter